1
De Código Tradicional a Aplicaciones de IA Generativa
AI011Lesson 3
00:00

De Código Tradicional a Aplicaciones de IA Generativa

El panorama del desarrollo de software está experimentando un cambio fundamental. Estamos pasando de un programación rígida y basada en comandos a una más flexible y guiada por el lenguaje natural IA Generativa interacción.

1. Rompiendo la Cadena de Comandos

¿Qué es? Las aplicaciones tradicionales dependen de interfaces gráficas de usuario (GUI) fijas o conjuntos específicos de comandos dependientes del idioma. Si un usuario se desvía de la entrada esperada, el sistema falla.

¿Por qué es importante? Las aplicaciones de IA generativa ofrecen una flexibilidad sin precedentes. Permiten a los usuarios interactuar mediante lenguaje natural para lograr objetivos complejos, adaptándose al propósito más que solo a la sintaxis.

2. El Principio de No Determinismo

¿Qué es? En código tradicional, $1 + 1$ siempre da como resultado $2$. Es determinista. Modelos de Lenguaje Grandes (MLGs), por el contrario, operan sobre probabilidades.

¿Cómo funciona? Pueden producir resultados diferentes para la misma solicitud exacta. Esta variedad se gestiona mediante parámetros específicos, especialmente Temperatura.

3. Bloques Básicos: Tokens y Temperatura

  • Tokens: Los bloques numéricos básicos del texto utilizados por el modelo. Las palabras se dividen en estas unidades subpalabra.
  • Temperatura: Un ajuste (que varía entre $0.0$ y $1.0$) que controla la aleatoriedad. Valores bajos producen texto predecible y enfocado; valores altos estimulan salidas creativas y diversas.
Seguridad Primero
Nunca codifiques directamente las claves de API en tu código de aplicación. Usa siempre variables de entorno (por ejemplo, .env archivos) para proteger tus recursos de IA contra accesos no autorizados.
app.py
TERMINALbash — 80x24
> Ready. Click "Run" to execute.
>
Question 1
Why are Large Language Models (LLMs) described as "non-deterministic"?
Because they can produce different results for the same prompt every time.
Because they always return the exact same output for a given input.
Because they cannot run on standard computer processors.
Because they require quantum computing to function.
Question 2
Which parameter should you decrease if you want the AI output to be more predictable and less creative?
Max Tokens
Top-P
Temperature
Frequency Penalty
Challenge: Building a "Study Buddy"
Apply your knowledge to a real-world scenario.
You are building a "Study Buddy" application that must provide strictly factual definitions for students preparing for exams. The application will connect to an Azure OpenAI resource.
Task 1
Identify the optimal Temperature setting for this specific task.
Solution:
Set Temperature to 0.0 or 0.1. This minimizes randomness and ensures the model provides the most likely, factual, and consistent definitions rather than creative or hallucinated responses.
Task 2
How should you secure the application's sensitive connection data?
Solution:
Move the API_KEY from the main code file into an environment variable or a hidden .env file. Use os.getenv("AZURE_OPENAI_KEY") to retrieve it securely at runtime.